We extend best-subset selection to linear Multi-Task Learning (MTL), where a set of linear models are jointly trained on a collection of datasets (``tasks''). Allowing the regression coefficients of tasks to have different sparsity patterns (i.e., different supports), we propose a modeling framework for MTL that encourages models to share information across tasks, for a given covariate, through separately 1) shrinking the coefficient supports together, and/or 2) shrinking the coefficient values together. This allows models to borrow strength during variable selection even when the coefficient values differ markedly between tasks. We express our modeling framework as a Mixed-Integer Program, and propose efficient and scalable algorithms based on block coordinate descent and combinatorial local search. We show our estimator achieves statistically optimal prediction rates. Importantly, our theory characterizes how our estimator leverages the shared support information across tasks to achieve better variable selection performance. We evaluate the performance of our method in simulations and two biology applications. Our proposed approaches outperform other sparse MTL methods in variable selection and prediction accuracy. Interestingly, penalties that shrink the supports together often outperform penalties that shrink the coefficient values together. We will release an R package implementing our methods.
translated by 谷歌翻译
Modern deep learning models are over-parameterized, where the optimization setup strongly affects the generalization performance. A key element of reliable optimization for these systems is the modification of the loss function. Sharpness-Aware Minimization (SAM) modifies the underlying loss function to guide descent methods towards flatter minima, which arguably have better generalization abilities. In this paper, we focus on a variant of SAM known as mSAM, which, during training, averages the updates generated by adversarial perturbations across several disjoint shards of a mini-batch. Recent work suggests that mSAM can outperform SAM in terms of test accuracy. However, a comprehensive empirical study of mSAM is missing from the literature -- previous results have mostly been limited to specific architectures and datasets. To that end, this paper presents a thorough empirical evaluation of mSAM on various tasks and datasets. We provide a flexible implementation of mSAM and compare the generalization performance of mSAM to the performance of SAM and vanilla training on different image classification and natural language processing tasks. We also conduct careful experiments to understand the computational cost of training with mSAM, its sensitivity to hyperparameters and its correlation with the flatness of the loss landscape. Our analysis reveals that mSAM yields superior generalization performance and flatter minima, compared to SAM, across a wide range of tasks without significantly increasing computational costs.
translated by 谷歌翻译
自动对象检测器的本地化质量通常通过联合(IOU)分数进行评估。在这项工作中,我们表明人类对本地化质量有不同的看法。为了评估这一点,我们对70多名参与者进行了调查。结果表明,对于以完全相同的评分而言,人类可能不会认为这些错误是相等的,并且表达了偏好。我们的工作是第一个与人类一起评估IOU的工作,并清楚地表明,仅依靠IOU分数来评估本地化错误可能还不够。
translated by 谷歌翻译
尽管自我监督的学习使我们能够通过利用未标记的数据来引导培训,但自然图像的通用自我监督方法不能充分纳入上下文。对于医学图像,理想的方法应足够敏感,以检测与每个解剖区域的正常表现组织的偏差。在这里,解剖结构是背景。我们介绍了一种新的方法,具有两个级别的自我监督的表示目标:一个在区域解剖学层面上,另一种是在患者级别上。我们使用图形神经网络来结合不同解剖区域之间的关系。图的结构由每个患者与解剖图谱之间的解剖对应关系告知。此外,图表具有完整分辨率的任何任意大小的图像的优点。大规模计算机断层扫描(CT)肺图像数据集的实验表明,我们的方法与不考虑上下文的​​基线方法相比有利。我们使用学习的嵌入来分期与COVID-19有关的肺组织异常。
translated by 谷歌翻译
一种可以推广到看不见的对比和扫描仪设置的器官分割方法可以显着减少对深度学习模型的重新培训的需求。域概括(DG)旨在实现这一目标。但是,大多数用于分割的DG方法都需要训练期间来自多个领域的训练数据。我们提出了一种针对从\ emph {single}域的数据训练的器官分割的新型对抗域的概括方法。我们通过学习对抗结构域合成器(AD)合成新域,并假定合成域覆盖了足够大的合理分布区域,以便可以从合成域中插值看不见的域。我们提出了一个共同的信息正常化程序,以实现合成域中图像之间的语义一致性,可以通过贴片级对比度学习来估计。我们评估了各种器官分割的方法,以进行看不见的模式,扫描协议和扫描仪位点。
translated by 谷歌翻译
在医学图像上创建一个异常注释的大规模数据集是一项劳动密集型和昂贵的任务。利用可用数据(例如放射学报告)的弱监督可以补偿缺乏用于异常检测方法的大规模数据。但是,当前大多数方法仅使用图像水平的病理观察,但未能在报告中使用相关的解剖学提及。此外,由于标签稀疏性和语言歧义,自然语言处理(NLP)汇总的弱标签是嘈杂的。我们提出了一个解剖引导的胸部X射线网络(AGXNET),以解决这些弱注释问题。我们的框架由两个网络组成,一个网络负责识别解剖异常,第二个负责病理观察。我们框架中的关键组成部分是一个解剖学引导的注意模块,该模块有助于下游观察网络重点关注解剖网络产生的相关解剖区域。我们使用积极的未标记(PU)学习来说明一个事实,即缺乏提及并不一定意味着负标签。我们对模拟CXR数据集的定量和定性结果证明了AGXNET在疾病和解剖异常定位中的有效性。 NIH胸部X射线数据集的实验表明,学习的特征表示是可以转移的,并且可以在疾病分类和竞争性疾病定位结果中实现最先进的表现。我们的代码可在https://github.com/batmanlab/agxnet上找到
translated by 谷歌翻译
域适应(DA)最近在医学影像社区提出了强烈的兴趣。虽然已经提出了大量DA技术进行了用于图像分割,但大多数这些技术已经在私有数据集或小公共可用数据集上验证。此外,这些数据集主要解决了单级问题。为了解决这些限制,与第24届医学图像计算和计算机辅助干预(Miccai 2021)结合第24届国际会议组织交叉模态域适应(Crossmoda)挑战。 Crossmoda是无监督跨型号DA的第一个大型和多级基准。挑战的目标是分割参与前庭施瓦新瘤(VS)的后续和治疗规划的两个关键脑结构:VS和Cochleas。目前,使用对比度增强的T1(CET1)MRI进行VS患者的诊断和监测。然而,使用诸如高分辨率T2(HRT2)MRI的非对比度序列越来越感兴趣。因此,我们创建了一个无人监督的跨模型分段基准。训练集提供注释CET1(n = 105)和未配对的非注释的HRT2(n = 105)。目的是在测试集中提供的HRT2上自动对HRT2进行单侧VS和双侧耳蜗分割(n = 137)。共有16支球队提交了评估阶段的算法。顶级履行团队达成的表现水平非常高(最佳中位数骰子 - vs:88.4%; Cochleas:85.7%)并接近完全监督(中位数骰子 - vs:92.5%;耳蜗:87.7%)。所有顶级执行方法都使用图像到图像转换方法将源域图像转换为伪目标域图像。然后使用这些生成的图像和为源图像提供的手动注释进行培训分割网络。
translated by 谷歌翻译
冷冻切片(FS)是手术操作期间组织微观评估的制备方法。该程序的高速允许病理学医师快速评估关键的微观特征,例如肿瘤边距和恶性地位,以引导手术决策,并尽量减少对操作过程的干扰。然而,FS容易引入许多误导性的人工结构(组织学人工制品),例如核冰晶,压缩和切割人工制品,妨碍了病理学家的及时和准确的诊断判断。额外的培训和长期经验通常需要对冻结部分进行高度有效和时间关键的诊断。另一方面,福尔马林固定和石蜡嵌入(FFPE)的黄金标准组织制备技术提供了显着优越的图像质量,而是一种非常耗时的过程(12-48小时),使其不适合术语用。在本文中,我们提出了一种人工智能(AI)方法,通过在几分钟内将冻结的整个幻灯片(FS-WSIS)计算冻结的整个幻灯片(FS-WSIS)来改善FS图像质量。 AI-FFPE将FS人工制品终止了注意力机制的指导,该引导机制在利用FS输入图像和合成的FFPE样式图像之间利用建立的自正则化机制,以及综合相关特征的合成的FFPE样式图像。结果,AI-FFPE方法成功地生成了FFPE样式图像,而不会显着扩展组织处理时间,从而提高诊断准确性。我们证明了使用各种不同的定性和定量度量,包括来自20个董事会认证的病理学家的视觉图灵测试的各种不同的定性和定量度量。
translated by 谷歌翻译
通过对比学习学到的表示的概括依赖于提取数据的特征。然而,我们观察到,对比损失并不总是充分引导提取的特征,可以通过无意中抑制重要预测特征来对下游任务对下游任务的性能产生负面影响的行为。我们发现特征提取受到所谓的实例歧视任务的难度的影响(即,鉴别不同分数的相似点的任务)。虽然更难以改善一些特征的表示,但改进是以抑制先前良好的特征的成本。作为响应,我们提出了隐含的特征修改(IFM),一种改变正和阴性样本的方法,以便引导对比模型来捕获更广泛的预测特征。凭经验,我们观察到IFM减少了特征抑制,结果提高了视觉和医学成像任务的性能。代码可在:\ url {https://github.com/joshr17/ifm}可用。
translated by 谷歌翻译
生成对抗网络(GAN)具有许多潜在的医学成像应用,包括数据扩展,域适应和模型解释。由于图形处理单元(GPU)的记忆力有限,因此在低分辨率的医学图像上对当前的3D GAN模型进行了训练,因此这些模型要么无法扩展到高分辨率,要么容易出现斑驳的人工制品。在这项工作中,我们提出了一种新颖的端到端GAN体系结构,可以生成高分辨率3D图像。我们通过使用训练和推理之间的不同配置来实现这一目标。在训练过程中,我们采用了层次结构,该结构同时生成图像的低分辨率版本和高分辨率图像的随机选择子量。层次设计具有两个优点:首先,对高分辨率图像训练的记忆需求在子量之间摊销。此外,将高分辨率子体积固定在单个低分辨率图像上可确保子量化之间的解剖一致性。在推断期间,我们的模型可以直接生成完整的高分辨率图像。我们还将具有类似层次结构的编码器纳入模型中,以从图像中提取特征。 3D胸CT和脑MRI的实验表明,我们的方法在图像生成中的表现优于最新技术。我们还证明了所提出的模型在数据增强和临床相关特征提取中的临床应用。
translated by 谷歌翻译